litbaza книги онлайнРазная литератураБудущее без работы. Технология, автоматизация и стоит ли их бояться - Даниэль Сасскинд

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 23 24 25 26 27 28 29 30 31 ... 99
Перейти на страницу:
его занятий[286]. Есть системы, которые лучше человека различают искреннюю и формальную улыбку и лица, изображающие реальную и поддельную боль. А еще есть машины, которые могут не просто считывать выражение лица, но и определять по разговору между женщиной и ребенком, являются ли они родственниками, и понимать, собирается ли человек сделать что-то плохое, по тому, как он входит в комнату[287]. Другая машина с точностью около 90 % может сказать, лжет ли человек в суде, тогда как люди справляются с этой задачей примерно в 54 % случаев – такой результат немногим лучше простого угадывания[288]. Китайская страховая компания Ping An использует подобную систему при кредитовании, чтобы оценить честность претендентов: камера снимает людей, когда те отвечают на вопросы о своих доходах и планах о погашении ссуды, а компьютер оценивает видео и проверяет, говорят ли они правду[289].

Кроме того, существует смежная область «социальной робототехники». Численность всех роботов в мире – а не только промышленных, упомянутых ранее, – сейчас составляет около десяти млн штук, а общие расходы на робототехнику, как ожидается, увеличатся с 15 млрд долларов в 2010 году до 67 млрд в 2025-м[290]. Социальные роботы отличаются от своих собратьев способностью распознавать человеческие эмоции и реагировать на них. Самые удивительные из них используются в здравоохранении. Паро, терапевтический робот в виде детеныша тюленя, утешает людей с когнитивными расстройствами вроде деменции и болезни Альцгеймера; в некоторых бельгийских больницах пациентов встречает и провожает в нужное отделение андроид Пеппер[291]. Однако с машинами ладят не все. Пеппер, например, приобрел всемирную известность в 2015 году, когда пьяный Киити Исикава вошел в салон сотовой связи в Японии и напал на приветствовавшего его робота, потому что «ему не понравился его тон» (правонарушителя немедленно арестовали)[292].

Примеры машин, способных распознавать человеческие эмоции и реагировать на них, поражают воображение. Однако чрезмерное увлечение может ввести нас в заблуждение. Почему? Потому что Пеппер, Паро и подобные им системы пытаются различными способами имитировать аффективные способности человека. Однако урок революции прагматиков показывает, что в этом нет необходимости: машины могут, не копируя людей, превзойти их в выполнении какой-либо задачи.

Возьмем, например, образование. Сегодня личный контакт между учителем и учеником действительно играет ключевую роль в воспитании, но это не мешает такой виртуальной образовательной платформе, как Академия Хана, ежемесячно предоставлять в распоряжение миллионов студентов высококачественные учебные материалы[293]. Верно и то, что в настоящее время взаимодействие между врачами и пациентами лежит в основе нашей системы здравоохранения, но компьютерным системам не нужно смотреть пациентам в глаза, чтобы поставить точный медицинский диагноз. В розничной торговле объявления о вакансиях нацелены на поиск кандидатов, обладающих «социальными навыками» и способных с широкой улыбкой убеждать клиентов раскрыть кошелек. Но автоматизированные кассы, напрочь лишенные этих качеств, заменяют дружелюбных кассиров, а интернет-торговля вообще не предполагает какого-либо человеческого взаимодействия, зато угрожает магазинам на оживленных улицах. Специалисты в области робототехники часто говорят о «зловещей долине» – эта метафора призвана передать тот внезапный дискомфорт, который люди испытывают от взаимодействия с роботами, почти, но не совсем похожими на человека[294]. И все же, возможно, эту долину мы не пересечем. Проблемой она становится лишь тогда, когда нашим роботам придают человекоподобный облик, а для большинства задач, даже аффективных, этого не требуется.

Здесь кроется универсальный урок. Экономисты часто дают задачам названия в соответствии с конкретными способностями, которые люди используют для их выполнения. Они говорят, например, о «физических», «когнитивных» и «межличностных задачах», а не о «задачах, которые требуют физических, когнитивных или межличностных способностей от людей». Но такой способ мышления, скорее всего, приведет к недооценке того, насколько далеко машины сумеют продвинуться в этих областях. Как мы уже неоднократно видели, машины могут выполнять все больше задач, не пытаясь воспроизвести конкретные человеческие способности. Маркировка задач в соответствии с тем, как их выполняют люди, заставляет нас ошибочно думать, что и машины могут делать их только так.

Здоровый скептицизм

Приведенный выше перечень далеко не полон. Некоторые яркие примеры в нем, безусловно, отсутствуют, в то время как другие в будущем, несомненно, станут выглядеть банальными. Кроме того, заявления упомянутых компаний не должны восприниматься как истина в последней инстанции. Порой бывает трудно отличить серьезные корпоративные амбиции и достижения от простых трюков маркетологов, зарабатывающих на жизнь гиперболами. Как видно из графика 5.2[295], в середине 2018 года в ежеквартальных отчетах публичных компаний «искусственный интеллект» и «машинное обучение» упоминались примерно в четырнадцать раз чаще, чем всего тремя годами ранее. Отчасти этот рост действительно может быть обусловлен техническим прогрессом. Но его также, вероятно, подпитывает ажиотаж, создаваемый компаниями, выдающими старые технологии за новые предложения в сфере искусственного интеллекта.

В некоторых случаях за компаниями, продающими «псевдо-ИИ», чат-боты и услуги голосовой транскрипции, на самом деле скрываются люди, притворяющиеся машинами (очень похоже на «Турка-шахматиста» XVIII века[296]. Одно исследование 2019 года выявило, что 40 % европейских стартапов в области искусственного интеллекта фактически «не применяют никаких программ ИИ в своих продуктах»[297]. Бывает, что увлекаются даже главы корпораций. В 2017 году генеральный директор Tesla Илон Маск выразил надежду, что производство автомобилей в будущем будет настолько автоматизировано, что единственным ограничивающим фактором для роботов станет «трение воздуха»[298]. Когда всего через несколько месяцев выяснилось, что компания не достигла поставленных производственных целей, он робко написал в твиттере: «Да, чрезмерная автоматизация в Tesla была ошибкой»[299].

График 5.2. Количество упоминаний «ИИ» или «машинного обучения» в отчетах о прибылях и убытках компаний

Однако слишком долго задерживаться на каком-то конкретном упущении или преувеличении – значит упускать из виду более широкую картину: машины постепенно присваивают себе все новые задачи, чье выполнение ранее требовало богатого диапазона человеческих возможностей. Конечно, этот процесс развивался не совсем равномерно: в прошлом присвоение задач то застопоривалось, когда появлялись новые препятствия, то быстро шло вперед, когда преодолевались пределы автоматизации. Такие приливы и отливы наверняка будут происходить и в будущем. Возможно, впереди нас ждут новые «зимы» ИИ, когда сегодняшний лихорадочный энтузиазм по поводу новых технологий столкнется с фактическими ограничениями. Но, как это происходило и раньше, многие из них отпадут по мере выработки новых решений и обходных путей. Экономисты опасаются называть повторение каких-либо явлений «правилом» или «законом», но присвоение задач оказалось столь же закономерным, как и любой исторический феномен. Если не произойдет катастрофы – ядерной войны или масштабного экологического коллапса, – он,

1 ... 23 24 25 26 27 28 29 30 31 ... 99
Перейти на страницу:

Комментарии
Минимальная длина комментария - 20 знаков. Уважайте себя и других!
Комментариев еще нет. Хотите быть первым?